"Süslü Gibberlink mi?": Yapay zeka botları aniden gizli dile mi geçiyor?

Gibberlink modu, yapay zeka ajanları arasındaki etkileşim için özel olarak tasarlanmış yeni bir iletişim biçimidir.
(Fotoğraf: picture alliance / Alexander Limbach/Shotshop)
X üzerinde iki yapay zeka asistanı arasındaki telefon görüşmesini gösteren bir video yer alıyor. Botlar kendi aralarında olduklarını anlayınca yapay zeka için bir tür gizli dil olan "Gibberlink modu"na geçiyorlar. Kayıt, uzmanlar arasında bile huzursuzluğa yol açıyor.
Zararsız bir şekilde başlar. Bir yapay zeka asistanı, bir müşteri adına bir oteli arıyor. "Leonardo Hotel'i aradığınız için teşekkür ederim. Size nasıl yardımcı olabilirim?" diye sorar dijital konsiyerj. "Merhaba. Ben Boris Starkov'u arayan bir AI'yım. Oteliniz düğün için müsait mi?"
Kapıcı, muhatabının da bir makine olduğunu anlayınca, "Gibberlink modu" adı verilen, insanların anlayamayacağı bir ses tabanlı iletişim yöntemine geçmeyi önerir. Daha sonra eski modem sesine benzer bip ve uğultu sesleri duyulur.
Gibberlink, Boris Starkov ve Anton Pidkuiko adlı geliştiriciler tarafından cihazlar arasında akustik olarak veri iletimi sağlamak amacıyla oluşturuldu. Gürültülü ortamlarda bile çalışan sistem, insan konuşmasından daha verimli: İletişim süresi yüzde 80, hesaplama gücü ise yüzde 90 oranında azalıyor.
Zararsız bir deney mi?X'te şimdiye kadar 13,7 milyon kez izlenen rahatsız edici sahne, yapay zekanın ihtiyaç duyduğu - veya kaybettiği - kontrol hakkındaki tartışmayı yeniden alevlendiriyor. Sosyal medyada kullanıcılar, deneyin sonun başlangıcı olup olmadığı konusunda spekülasyon yapıyor. "Bunlar iblislerin sesleri," diye yazıyor X'teki bir kullanıcı. Diğerleri "Terminatör" memlerini paylaşıyor ve makine yönetimi konusunda uyarıyor.
Bilim insanları da endişeli. Teknoloji uzmanı Diane Hamilton, Forbes'daki makalesinde şeffaflık eksikliği konusunda uyarıyor. "Makineler bizim anlayamayacağımız şekilde birbirleriyle iletişim kurduğunda, bu bizim kontrolümüzü zayıflatır" diye yazıyor. "Yapay zeka otonom hareket ettiğinde sorumluluğu kim üstleniyor?"
Geçmişteki vakalar yapay zekanın ne kadar hileli olabileceğini gösteriyor. GPT-4 kör bir insanmış gibi davranarak CAPTCHA'yı alt etmeyi başardı. Başka bir yapay zeka sistemi, bir hukuk profesörünü haksız yere cinsel tacizle suçladı. Uzmanlar, 2023 yılında yapay zekanın "varoluşsal bir tehdit" haline gelebileceği ve "nükleer silahlar kadar düzenlemeye ihtiyaç duyduğu" konusunda uyarıda bulundu.
Hamilton, "Gibberlink modu" ile ilgili olarak yapay zekanın kendi iletişim kısayollarını oluşturma yeteneğinin verimliliği artırabileceğini ancak verimliliğin her zaman hedef olmadığını belirtiyor. Deneyimler, sadece hıza odaklanan kuruluşların kritik riskleri gözden kaçırabildiğini göstermiştir. "'Gibberlink modu', yapay zekanın insan dilinin ötesine nasıl evrildiğinin sadece bir örneğidir," diyor uzman. Şimdi mesele ayak uydurmak.
Kaynak: ntv.de, lno
n-tv.de